Valutare la qualità dei testi generati in lingua italiana

Authors

DOI:

https://doi.org/10.62408/ai-ling.v1i1.14

Keywords:

lingua, intelligenza artificiale, testi generati da intelligenze artificiali, lingua italiana, valutazione, LLM, ChatGPT

Abstract

Il contributo presenta il problema della valutazione dei testi generati in lingua italiana da LLM collocandolo nel contesto delle pratiche di valutazione esistenti in diversi settori connessi. Nella prima parte viene mostrato il posizionamento della valutazione degli LLM in rapporto ad alcune pratiche ampiamente diffuse, dalla valutazione semiautomatica delle traduzioni automatiche alla valutazione umana di testi di vario genere. Nella seconda parte vengono presentate le condizioni della valutazione in rapporto alle capacità effettive degli LLM, che sono in grado di generare testi di tipo molto diverso. Viene poi presentato l’esame di un campione di testi generati da ChatGPT, eseguito appunto nella prospettiva dell’identificazione delle pratiche di valutazione più adatte. Le produzioni testuali oggetto dell’esame, ricavate da conversazioni condotte con ChatGPT-3.5 e ChatGPT-4, mostrano infatti un avvicinamento notevole alle produzioni professionali di esseri umani, ma anche alcuni punti di divergenza. Complessivamente, il contributo argomenta quindi in favore dell’importanza e dell’utilità della valutazione umana applicata ai testi di buon livello linguistico prodotti dai sistemi attuali basati sull’intelligenza artificiale, purché in questa applicazione venga evitata l’adozione passiva di criteri sviluppati per altri tipi di attività.

Published

2024-08-08

How to Cite

Tavosanis, M. (2024). Valutare la qualità dei testi generati in lingua italiana. AI-Linguistica. Linguistic Studies on AI-Generated Texts and Discourses, 1(1). https://doi.org/10.62408/ai-ling.v1i1.14

Issue

Section

Full-Length Article